moe

重磅!华为发布准万亿大模型

近日,华为在MoE模型训练领域再进一步,推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在

模型 华为 moe 盘古 moe模型 2025-05-30 19:34  9

昇腾算力“炼”出业界一流大模型

华为日前在MoE模型训练领域再进一步,推出参数规模高达7180亿的全新模型——盘古Ultra MoE。这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时还发布了盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾

模型 moe 盘古 moe模型 吴蔚 2025-05-30 19:27  10

昇腾算力炼出业界一流大模型

近日,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇

模型 ultra moe 盘古 moe模型 2025-05-30 16:40  7

华为揭秘:国产昇腾训出世界一流大模型

近日,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇

模型 ultra 华为 moe 盘古 2025-05-30 16:15  9

开放创新托举产业生态,昇腾AI持续升腾

当前,智能算力革命重塑产业创新范式,人工智能进入“指数级跃迁”时代,模型迭代速度也迎来“指数级加速”。无论是扩展模型规模、提升泛化能力的“参数摸高”,还是优化模型架构、提升运行效率的“工程创新”,都在沿着各自路径快速推进,共同推动大模型敏捷迭代和规模应用。

创新 生态 moe 托举 decode 2025-05-29 19:37  6

AI这场仗,蚂蚁决定这么打

5月27日下午16点多,接任蚂蚁集团CEO仅87天的韩歆毅,穿着黄色短袖来到杭州蚂蚁A空间正进行的“蚂蚁黑客松”比赛,并坐在前排台阶上仔细聆听。今年3月,获清华大学经济学硕士学位的韩歆毅升任蚂蚁集团CEO。

模态 蚂蚁 moe 百灵 韩歆 2025-05-28 18:06  10

从大模型工程视角看DeepSeek-V3/R1

DeepSeek-V3/R1 凭借 61 层神经网络、58 层 MoE 架构及 14906 个专家,在高效推理与经济性上实现突破。其 MLA 机制有效压缩键值缓存,降低内存占用,多 Token 预测等技术更是大幅提升数据效率与训练速度,正推动大模型向更高效、智

模型 工程 moe mla token 2025-05-26 21:40  10